SVG Image
< Terug naar nieuws

6 Januari 2025

Kan AI geweld in menigten detecteren voordat het gebeurt?

Het herkennen van geweld in grote menigtes via bewakingsbeelden? Het is mogelijk met kunstmatige intelligentie (AI). Maar voordat we zulke technologieën gaan implementeren, is het essentieel om goed na te denken over de ethische implicaties. Emmeke Veltmeijer, AI-onderzoeker, concludeert dat het belangrijker dan ooit is om ethisch verantwoorde modellen te ontwikkelen en hierover in gesprek te blijven.

Veltmeijer heeft onderzocht hoe we met behulp van AI grote groepen mensen automatisch kunnen analyseren, wat van waarde kan zijn voor beveiligingsmedewerkers en crowdmanagers die op zoek zijn naar geweld of opstootjes in drukke gebieden.

 

AI voor Beveiliging in Grote Menigtes

Veltmeijer richtte zich op systemen die in de praktijk gebruikt kunnen worden om de veiligheid te verbeteren. "Ik deelde menigtes automatisch op in kleinere subgroepen," zegt Veltmeijer. "Deze subgroepen kunnen vervolgens worden geanalyseerd met behulp van afbeeldingen, videobeelden, audio en berichten op sociale media." Door AI-modellen toe te passen op echte werelddata, ontdekte ze hoe ze vechtende groepjes mensen op videobeelden kon herkennen en hoe ze met behulp van socialmediaberichten de locaties van rellen in Amsterdam kon traceren. Daarnaast onderzocht ze hoe geluidsgolven van rumoerige menigtes kunnen helpen om te bepalen of de sfeer positief of negatief is. Deze technologieën kunnen bijvoorbeeld beveiligers helpen om sneller geweld te herkennen of om socialmediaberichten te analyseren voor aanwijzingen van onverwachte gebeurtenissen, zoals rellen bij sportwedstrijden of demonstraties.

 

De Ethische Kant van AI in Crowd Management

Hoewel de voordelen van AI voor beveiliging in drukke omgevingen duidelijk zijn, roept de toepassing van dergelijke technologieën ook ethische vragen op. "Het is belangrijk om goed na te denken over de wenselijkheid van het verzamelen van gedetailleerde informatie over mensen in grote menigtes," zegt Veltmeijer. "Het verzamelen van data zonder de privacy van individuen te schenden, moet altijd de hoogste prioriteit hebben." Veltmeijer onderzocht daarom ook de invloed van de Europese verordening voor kunstmatige intelligentie (AI Act) op automatische groepsanalyse, zoals in haar studie. Ze benadrukt dat het belangrijk is om ethische richtlijnen in acht te nemen bij het ontwikkelen van AI-systemen, vooral wanneer het gaat om het verzamelen van data van mensen in openbare ruimtes. "AI speelt een steeds grotere rol in de samenleving, en het is van cruciaal belang dat we verantwoord omgaan met de technologie," aldus Veltmeijer.

 

Verantwoord Gebruik van AI

Na haar ethische analyse bleek dat er nog steeds praktische en ethische bezwaren bestaan, zelfs wanneer we de AI Act toepassen. Veltmeijer doet enkele suggesties voor verbetering: het verzamelen van data zonder persoonlijke informatie, het respecteren van de context van de dataverzameling, en het nemen van verantwoordelijkheid als wetenschapper. De resultaten van haar onderzoek zijn niet alleen belangrijk voor mensen die werken in crowd management of beveiliging, maar voor iedereen die ooit deel uitmaakt van een grote menigte. "Het is essentieel om te weten welke rechten je hebt en hoe AI-systemen kunnen bijdragen aan je fysieke veiligheid zonder je privacy in gevaar te brengen," zegt Veltmeijer.

 

Gepubliceerd door de Vrije Universiteit van Amsterdam. 

Vergelijkbaar >

Vergelijkbare nieuwsitems

>Bekijk alle nieuwsitems >
Waarom GPT Niet Zoals Mensen Kan Redeneren

23 Maart 2025

Waarom GPT Niet Zoals Mensen Kan Redeneren >

In een studie van AI- en taalexperts Martha Lewis van de Universiteit van Amsterdam en Melanie Mitchell van het Santa Fe Institute werd de capaciteit van GPT-4 om analogieën te begrijpen getest in vergelijking met menselijke prestaties. Analogisch redeneren – het vermogen om vergelijkingen te maken tussen verschillende dingen op basis van gedeelde overeenkomsten – is een cruciale manier waarop mensen de wereld begrijpen. Bijvoorbeeld: "Kop is voor koffie zoals soep is voor ???" 

Lees meer >

Oproep: Test een nieuw AI-aanbevelingssysteem voor NEMO Kennislink!

20 Maart 2025

Oproep: Test een nieuw AI-aanbevelingssysteem voor NEMO Kennislink! >

NEMO Kennislink test samen met onderzoekers van de UvA, HvA en CWI een nieuw AI-gestuurd aanbevelingssysteem in het AI Media & Democracy Lab. We zoeken enthousiaste deelnemers die twee maanden lang NEMO Kennislink willen lezen via een speciale test-app op hun smartphone.

Lees meer >

Lemni haalt €3,3 miljoen pre-seed investering op voor AI-gedreven klantinteractie

18 maart

Lemni haalt €3,3 miljoen pre-seed investering op voor AI-gedreven klantinteractie >

De Amsterdamse AI-startup Lemni is officieel gelanceerd en heeft €3,3 miljoen aan pre-seed financiering opgehaald in een ronde geleid door Sequoia Capital. De investering helpt Lemni bij het versnellen van productontwikkeling, het uitbreiden van het team en het wereldwijd opschalen van hun AI-gedreven klantinteractieplatform.

Lees meer >